به گزارش مجله خبری نگار،هوش مصنوعی میتواند با کمک به انسان در کدنویسی، نوشتن و ترکیب حجم وسیعی از داده، بهره وری را افزایش دهد با این وجود اکنون میتواند ما را فریب هم دهد.
طبق یک مقاله تحقیقاتی جدید، طیفی از سیستمهای هوش مصنوعی تکنیکهایی را برای القای سیستماتیک باورهای نادرست در دیگران برای دستیابی به نتایجی غیر از حقیقت یاد گرفتهاند. این مقاله بر دو نوع سیستم هوش مصنوعی متمرکز شد: مدل CICERO متا که برای تکمیل یک کار خاص طراحی شده و مدل همه منظوره جیپیتی۴ که برای انجام طیف متنوعی از وظایف آموزش دیدهاند. در حالی که این سیستمها برای صادق بودن آموزش دیده اند، اغلب از ترفندهای فریب را یاد میگیرند.
پیتر اس پارک، نویسنده اول مقاله گفت: فریب توسط هوش مصنوعی به این دلیل به وجود میآید که یک استراتژی مبتنی بر فریب بهترین راه برای عملکرد خوب در وظیفه آموزشی مشخص شده است. فریب به آنها کمک میکند تا به اهداف خود برسند.
تحقیقات همچنین نشان میدهد که اصلاح مدلهای فریبنده کار آسانی نیست. در مطالعهای که در ژانویه (دی_بهمن) توسط آنتروپیک، انجام شد، محققان دریافتند زمانی که مدلهای هوش مصنوعی ترفندهای فریب را یاد بگیرند، تکنیکهای آموزشی ایمنی برای معکوس کردن آنها دشوار است.
خطراتی که مدلهای هوش مصنوعی فریبنده ایجاد میکنند به طور فزاینده جدی هستند. این مقاله از سیاستگذاران میخواهد که از مقررات محکمتر هوش مصنوعی دفاع کنند، زیرا سیستمهای هوش مصنوعی فریبنده میتوانند خطرات مهمی برای دموکراسی ایجاد کنند.